[IA64] Changed from page to page_info
authorawilliam@xenbuild.aw <awilliam@xenbuild.aw>
Thu, 16 Mar 2006 19:10:22 +0000 (12:10 -0700)
committerawilliam@xenbuild.aw <awilliam@xenbuild.aw>
Thu, 16 Mar 2006 19:10:22 +0000 (12:10 -0700)
This patch changed from "struct page" to "struct page_info" in the below files.
 - xen/arch/ia64/xen/domain.c
 - xen/arch/ia64/xen/mm_init.c
 - xen/arch/ia64/xen/xenmem.c
 - xen/arch/ia64/xen/xenmisc.c
 - xen/include/asm-ia64/config.h
 - xen/include/asm-ia64/mm.h

This patch is "step1" which we showed by the following mail.
http://lists.xensource.com/archives/html/xen-ia64-devel/2006-03/msg00305.html

Signed-off-by: Akio Takebe <takebe_akio@jp.fujitsu.com>
Signed-off-by: Masaki Kanno <kanno.masaki@jp.fujitsu.com>
xen/arch/ia64/xen/domain.c
xen/arch/ia64/xen/mm_init.c
xen/arch/ia64/xen/xenmem.c
xen/arch/ia64/xen/xenmisc.c
xen/include/asm-ia64/config.h
xen/include/asm-ia64/mm.h

index 2c85d9e7151ae0691f334653740357af4b7a5217..5d35bf08b7665f13990330b9412398249f28e14f 100644 (file)
@@ -80,14 +80,14 @@ static void init_switch_stack(struct vcpu *v);
 /* this belongs in include/asm, but there doesn't seem to be a suitable place */
 void arch_domain_destroy(struct domain *d)
 {
-       struct page *page;
+       struct page_info *page;
        struct list_head *ent, *prev;
 
        if (d->arch.mm->pgd != NULL)
        {
                list_for_each ( ent, &d->arch.mm->pt_list )
                {
-                       page = list_entry(ent, struct page, list);
+                       page = list_entry(ent, struct page_info, list);
                        prev = ent->prev;
                        list_del(ent);
                        free_xenheap_page(page_to_virt(page));
@@ -340,7 +340,7 @@ int arch_set_info_guest(struct vcpu *v, struct vcpu_guest_context *c)
 static void relinquish_memory(struct domain *d, struct list_head *list)
 {
     struct list_head *ent;
-    struct page      *page;
+    struct page_info *page;
 #ifndef __ia64__
     unsigned long     x, y;
 #endif
@@ -350,7 +350,7 @@ static void relinquish_memory(struct domain *d, struct list_head *list)
     ent = list->next;
     while ( ent != list )
     {
-        page = list_entry(ent, struct page, list);
+        page = list_entry(ent, struct page_info, list);
         /* Grab a reference to the page so it won't disappear from under us. */
         if ( unlikely(!get_page(page, d)) )
         {
@@ -468,7 +468,7 @@ void new_thread(struct vcpu *v,
        }
 }
 
-static struct page * assign_new_domain0_page(unsigned long mpaddr)
+static struct page_info * assign_new_domain0_page(unsigned long mpaddr)
 {
        if (mpaddr < dom0_start || mpaddr >= dom0_start + dom0_size) {
                printk("assign_new_domain0_page: bad domain0 mpaddr 0x%lx!\n",mpaddr);
@@ -480,10 +480,10 @@ static struct page * assign_new_domain0_page(unsigned long mpaddr)
 }
 
 /* allocate new page for domain and map it to the specified metaphysical addr */
-struct page * assign_new_domain_page(struct domain *d, unsigned long mpaddr)
+struct page_info * assign_new_domain_page(struct domain *d, unsigned long mpaddr)
 {
        struct mm_struct *mm = d->arch.mm;
-       struct page *pt, *p = (struct page *)0;
+       struct page_info *pt, *p = (struct page_info *)0;
        pgd_t *pgd;
        pud_t *pud;
        pmd_t *pmd;
@@ -549,7 +549,7 @@ struct page * assign_new_domain_page(struct domain *d, unsigned long mpaddr)
 void assign_domain_page(struct domain *d, unsigned long mpaddr, unsigned long physaddr)
 {
        struct mm_struct *mm = d->arch.mm;
-       struct page *pt;
+       struct page_info *pt;
        pgd_t *pgd;
        pud_t *pud;
        pmd_t *pmd;
@@ -746,7 +746,7 @@ void loaddomainelfimage(struct domain *d, unsigned long image_start)
        Elf_Phdr phdr;
        int h, filesz, memsz;
        unsigned long elfaddr, dom_mpaddr, dom_imva;
-       struct page *p;
+       struct page_info *p;
   
        copy_memory(&ehdr, (void *) image_start, sizeof(Elf_Ehdr));
        for ( h = 0; h < ehdr.e_phnum; h++ ) {
index aae5745724e8dab6a6aa248a3cf8813ba85770c5..666b7d085ad8cc56fece8df974a089ab1c3ce1bb 100644 (file)
@@ -60,13 +60,13 @@ unsigned long MAX_DMA_ADDRESS = PAGE_OFFSET + 0x100000000UL;
 #ifdef CONFIG_VIRTUAL_MEM_MAP
 unsigned long vmalloc_end = VMALLOC_END_INIT;
 EXPORT_SYMBOL(vmalloc_end);
-struct page *vmem_map;
+struct page_info *vmem_map;
 EXPORT_SYMBOL(vmem_map);
 #endif
 
 // static int pgt_cache_water[2] = { 25, 50 };
 
-struct page *zero_page_memmap_ptr;             /* map entry for zero page */
+struct page_info *zero_page_memmap_ptr;        /* map entry for zero page */
 EXPORT_SYMBOL(zero_page_memmap_ptr);
 
 #ifdef XEN
@@ -172,7 +172,7 @@ pmd_t fastcall *__pmd_alloc(struct mm_struct *mm, pud_t *pud, unsigned long addr
 pte_t fastcall * pte_alloc_map(struct mm_struct *mm, pmd_t *pmd, unsigned long address)
 {
        if (!pmd_present(*pmd)) {
-               struct page *new;
+               struct page_info *new;
 
                spin_unlock(&mm->page_table_lock);
                new = pte_alloc_one(mm, address);
@@ -202,7 +202,7 @@ void
 update_mmu_cache (struct vm_area_struct *vma, unsigned long vaddr, pte_t pte)
 {
        unsigned long addr;
-       struct page *page;
+       struct page_info *page;
 
        if (!pte_exec(pte))
                return;                         /* not an executable page... */
@@ -386,7 +386,7 @@ int
 create_mem_map_page_table (u64 start, u64 end, void *arg)
 {
        unsigned long address, start_page, end_page;
-       struct page *map_start, *map_end;
+       struct page_info *map_start, *map_end;
        int node;
        pgd_t *pgd;
        pmd_t *pmd;
@@ -417,8 +417,8 @@ create_mem_map_page_table (u64 start, u64 end, void *arg)
 }
 
 struct memmap_init_callback_data {
-       struct page *start;
-       struct page *end;
+       struct page_info *start;
+       struct page_info *end;
        int nid;
        unsigned long zone;
 };
@@ -427,7 +427,7 @@ static int
 virtual_memmap_init (u64 start, u64 end, void *arg)
 {
        struct memmap_init_callback_data *args;
-       struct page *map_start, *map_end;
+       struct page_info *map_start, *map_end;
 
        args = (struct memmap_init_callback_data *) arg;
 
@@ -440,13 +440,13 @@ virtual_memmap_init (u64 start, u64 end, void *arg)
                map_end = args->end;
 
        /*
-        * We have to initialize "out of bounds" struct page elements that fit completely
+        * We have to initialize "out of bounds" struct page_info elements that fit completely
         * on the same pages that were allocated for the "in bounds" elements because they
         * may be referenced later (and found to be "reserved").
         */
-       map_start -= ((unsigned long) map_start & (PAGE_SIZE - 1)) / sizeof(struct page);
+       map_start -= ((unsigned long) map_start & (PAGE_SIZE - 1)) / sizeof(struct page_info);
        map_end += ((PAGE_ALIGN((unsigned long) map_end) - (unsigned long) map_end)
-                   / sizeof(struct page));
+                   / sizeof(struct page_info));
 
        if (map_start < map_end)
                memmap_init_zone(map_start, (unsigned long) (map_end - map_start),
@@ -455,7 +455,7 @@ virtual_memmap_init (u64 start, u64 end, void *arg)
 }
 
 void
-memmap_init (struct page *start, unsigned long size, int nid,
+memmap_init (struct page_info *start, unsigned long size, int nid,
             unsigned long zone, unsigned long start_pfn)
 {
        if (!vmem_map)
@@ -476,7 +476,7 @@ int
 ia64_mfn_valid (unsigned long pfn)
 {
        char byte;
-       struct page *pg = mfn_to_page(pfn);
+       struct page_info *pg = mfn_to_page(pfn);
 
        return     (__get_user(byte, (char *) pg) == 0)
                && ((((u64)pg & PAGE_MASK) == (((u64)(pg + 1) - 1) & PAGE_MASK))
index 80655c25dde4846341956d252e2aeca52a306e10..c5493289c5d0186bc518deec47f7b6db07a4abda 100644 (file)
 #include <asm/pgtable.h>
 #include <xen/mm.h>
 
-extern struct page *zero_page_memmap_ptr;
+extern struct page_info *zero_page_memmap_ptr;
 struct page_info *frame_table;
 unsigned long frame_table_size;
 unsigned long max_page;
 
-struct page *mem_map;
+struct page_info *mem_map;
 #define MAX_DMA_ADDRESS ~0UL   // FIXME???
 
 #ifdef CONFIG_VIRTUAL_MEM_MAP
index eab10584b36dea66491731b59554422f0e8ec306..73798e9c3359c816b34748f3298eed0c40cc6b60 100644 (file)
@@ -171,7 +171,7 @@ unsigned long __get_free_pages(unsigned int mask, unsigned int order)
        return (unsigned long)p;
 }
 
-void __free_pages(struct page *page, unsigned int order)
+void __free_pages(struct page_info *page, unsigned int order)
 {
        if (order) BUG();
        free_xenheap_page(page);
index 9e2c9c93c54c8d6ac6c2f1beed1f5e1db7907911..332ffa97a85acbb8be7ec4f7aaa00a4dae2e219a 100644 (file)
@@ -73,8 +73,11 @@ extern unsigned long xenheap_size;
 extern unsigned long dom0_start;
 extern unsigned long dom0_size;
 
+// see include/asm-ia64/mm.h, handle remaining page_info uses until gone
+#define page_info page
+
 // from linux/include/linux/mm.h
-extern struct page *mem_map;
+extern struct page_info *mem_map;
 
 // xen/include/asm/config.h
 extern char _end[]; /* standard ELF symbol */
@@ -134,9 +137,6 @@ extern int smp_num_siblings;
 #define smp_num_siblings 1
 #endif
 
-// from linux/include/linux/mm.h
-struct page;
-
 // function calls; see decl in xen/include/xen/sched.h
 #undef free_task_struct
 #undef alloc_task_struct
@@ -206,8 +206,6 @@ void sort_main_extable(void);
 #define _atomic_read(v) ((v).counter)
 #define atomic_compareandswap(old, new, v) ((atomic_t){ cmpxchg(v, _atomic_read(old), _atomic_read(new)) })
 
-// see include/asm-ia64/mm.h, handle remaining page_info uses until gone
-#define page_info page
 // Deprivated linux inf and put here for short time compatibility
 #define kmalloc(s, t) xmalloc_bytes((s))
 #define kfree(s) xfree((s))
index 88e6e391c8e4adfe1b4faf080a4c7a8c2f1d35f3..0e48d3ec3a489924f162a0067dd95c39992c1192 100644 (file)
@@ -36,7 +36,7 @@ typedef unsigned long page_flags_t;
 
 #define PRtype_info "08x"
 
-struct page
+struct page_info
 {
     /* Each frame can be threaded onto a doubly-linked list. */
     struct list_head list;
@@ -228,7 +228,7 @@ void memguard_unguard_range(void *p, unsigned long l);
 
 // prototype of misc memory stuff
 //unsigned long __get_free_pages(unsigned int mask, unsigned int order);
-//void __free_pages(struct page *page, unsigned int order);
+//void __free_pages(struct page_info *page, unsigned int order);
 void *pgtable_quicklist_alloc(void);
 void pgtable_quicklist_free(void *pgtable_entry);
 
@@ -348,11 +348,11 @@ struct vm_area_struct {
 #define NODEZONE_SHIFT (sizeof(page_flags_t)*8 - MAX_NODES_SHIFT - MAX_ZONES_SHIFT)
 #define NODEZONE(node, zone)   ((node << ZONES_SHIFT) | zone)
 
-static inline unsigned long page_zonenum(struct page *page)
+static inline unsigned long page_zonenum(struct page_info *page)
 {
        return (page->flags >> NODEZONE_SHIFT) & (~(~0UL << ZONES_SHIFT));
 }
-static inline unsigned long page_to_nid(struct page *page)
+static inline unsigned long page_to_nid(struct page_info *page)
 {
        return (page->flags >> (NODEZONE_SHIFT + ZONES_SHIFT));
 }
@@ -360,12 +360,12 @@ static inline unsigned long page_to_nid(struct page *page)
 struct zone;
 extern struct zone *zone_table[];
 
-static inline struct zone *page_zone(struct page *page)
+static inline struct zone *page_zone(struct page_info *page)
 {
        return zone_table[page->flags >> NODEZONE_SHIFT];
 }
 
-static inline void set_page_zone(struct page *page, unsigned long nodezone_num)
+static inline void set_page_zone(struct page_info *page, unsigned long nodezone_num)
 {
        page->flags &= ~(~0UL << NODEZONE_SHIFT);
        page->flags |= nodezone_num << NODEZONE_SHIFT;
@@ -376,7 +376,7 @@ static inline void set_page_zone(struct page *page, unsigned long nodezone_num)
 extern unsigned long max_mapnr;
 #endif
 
-static inline void *lowmem_page_address(struct page *page)
+static inline void *lowmem_page_address(struct page_info *page)
 {
        return __va(page_to_mfn(page) << PAGE_SHIFT);
 }
@@ -395,8 +395,8 @@ static inline void *lowmem_page_address(struct page *page)
 #endif
 
 #if defined(HASHED_PAGE_VIRTUAL)
-void *page_address(struct page *page);
-void set_page_address(struct page *page, void *virtual);
+void *page_address(struct page_info *page);
+void set_page_address(struct page_info *page, void *virtual);
 void page_address_init(void);
 #endif
 
@@ -409,7 +409,7 @@ void page_address_init(void);
 
 #ifndef CONFIG_DEBUG_PAGEALLOC
 static inline void
-kernel_map_pages(struct page *page, int numpages, int enable)
+kernel_map_pages(struct page_info *page, int numpages, int enable)
 {
 }
 #endif